Telegram Group »
United States »
Библиотека data scientist’а | Data Science Machine learning анализ данных машинное обучение » Telegram Webview
Платформы с Low-Code AI обещают быстрое внедрение без строчки кода. Но под нагрузкой они часто не справляются:
Вот как заставить low-code работать в реальном масштабе:
Используйте сервисы с автоскейлингом (например, Azure Kubernetes Service, AWS SageMaker Pipelines). Избегайте базовых конфигураций — они не выдерживают нагрузку.
Очищайте данные пользователя после каждого запроса. Не полагайтесь на сохранённое состояние, если не контролируете его.
Следите за:
— Временем ответа API
— Процентом ошибок
— Использованием ресурсов
— Добавьте бизнес-метрики (например, конверсия, влияние на продажи).
Размещайте модели через балансировщики нагрузки. Настройте масштабирование по CPU или задержке.
Каждое обновление — новая версия. Тестируйте в staging и проводите A/B-тесты.
Когда low-code — хороший выбор
📌 Low-code не значит «всё само заработает». Масштаб требует инженерного подхода.
Библиотека дата-сайентиста #буст
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Даже самая точная модель на этапе разработки может со временем «поплыть» — из-за изменений в данных, поведении пользователей или внешней среды.
В новом материале разбираемся:
— какие метрики важно отслеживать после деплоя,
— когда запускать A/B-тесты,
— как строить систему алертов и реагировать на деградацию,
— и почему переобучение — не признак провала, а часть жизненного цикла ML.
👉 Читайте статью здесь: https://proglib.io/sh/fjpFLVWn8Z
Библиотека дата-сайентиста
Please open Telegram to view this post
VIEW IN TELEGRAM
🚀 Создавайте ML-модели с помощью естественного языка с Plexe
Почему бы не упростить создание моделей машинного обучения?
Plexe — это Python-библиотека, которая позволяет вам описывать задачу на естественном языке. После этого команда интеллектуальных агентов на базе LLM берёт всё в свои руки: от построения архитектуры до обучения и тестирования.
📌 Пример:
Основные возможности:
— Описание модели на естественном языке
— Многоагентная система (анализ, генерация кода, тесты)
— Автоматизированное построение моделей в один метод
— Поддержка распределённого обучения (Ray)
— Генерация данных и автоматический вывод схем
— Интеграция с OpenAI, Anthropic, HuggingFace и другими LLM-провайдерами
📦 Установка:
🔗 Ознакомиться с проектом и примерами: https://clc.to/Fs6A-g
Библиотека дата-сайентиста #буст
Почему бы не упростить создание моделей машинного обучения?
Plexe — это Python-библиотека, которая позволяет вам описывать задачу на естественном языке. После этого команда интеллектуальных агентов на базе LLM берёт всё в свои руки: от построения архитектуры до обучения и тестирования.
📌 Пример:
import plexe
model = plexe.Model(
intent="Предсказать тональность новостных статей",
input_schema={"headline": str, "content": str},
output_schema={"sentiment": str}
)
model.build(
datasets=[your_dataset],
provider="openai/gpt-4o-mini"
)
prediction = model.predict({
"headline": "Прорыв в области ИИ",
"content": "Учёные достигли впечатляющих результатов..."
})
Основные возможности:
— Описание модели на естественном языке
— Многоагентная система (анализ, генерация кода, тесты)
— Автоматизированное построение моделей в один метод
— Поддержка распределённого обучения (Ray)
— Генерация данных и автоматический вывод схем
— Интеграция с OpenAI, Anthropic, HuggingFace и другими LLM-провайдерами
📦 Установка:
pip install plexe
🔗 Ознакомиться с проектом и примерами: https://clc.to/Fs6A-g
Библиотека дата-сайентиста #буст
🥵 Устали от статей, где эйчары рассказывают, как на самом деле выглядит рынок труда в ИТ?
Мы тоже! Поэтому решили узнать правду и представить ее всем айтишникам — но нам нужен ваш голос. Опрос займет 3 минуты, а пользы — вагон для всего сообщества.
Результаты этого исследования помогут понять, как специалистам искать работу в 2025-м (а компаниям — специалистов).
👉 Если вы готовы сделать свой вклад в исследование — велком: https://clc.to/VGgyNA
Мы тоже! Поэтому решили узнать правду и представить ее всем айтишникам — но нам нужен ваш голос. Опрос займет 3 минуты, а пользы — вагон для всего сообщества.
Результаты этого исследования помогут понять, как специалистам искать работу в 2025-м (а компаниям — специалистов).
👉 Если вы готовы сделать свой вклад в исследование — велком: https://clc.to/VGgyNA
Что посмотреть: интервью с лидерами Google об ИИ, AGI и будущем разума
На Google I/O прошла живая дискуссия с Демисом Хассабисом (CEO DeepMind), Сергеем Брином (сооснователь Google) и Алексом Кантровицем. Темой стало развитие ИИ и возможный путь к AGI — искусственному общему интеллекту.
Обсудили:
— Есть ли предел масштабированию ИИ-моделей
— Как новые методы рассуждений меняют ИИ
— Когда (и будет ли) AGI
— ИИ-агенты Project Astra и подход AlphaEvolve (самообучение ИИ)
— Уроки от Google Glass и проблемы качества данных
— И да: затронули веб, симуляции и сроки появления AGI
🔗 Смотреть видео: https://clc.to/yMl_og
Библиотека дата-сайентиста #буст
На Google I/O прошла живая дискуссия с Демисом Хассабисом (CEO DeepMind), Сергеем Брином (сооснователь Google) и Алексом Кантровицем. Темой стало развитие ИИ и возможный путь к AGI — искусственному общему интеллекту.
Обсудили:
— Есть ли предел масштабированию ИИ-моделей
— Как новые методы рассуждений меняют ИИ
— Когда (и будет ли) AGI
— ИИ-агенты Project Astra и подход AlphaEvolve (самообучение ИИ)
— Уроки от Google Glass и проблемы качества данных
— И да: затронули веб, симуляции и сроки появления AGI
Библиотека дата-сайентиста #буст
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥 Команда дня: einsum или как реализовать multi-head self-attention без единого цикла
Если вы работаете с нейросетями, особенно с трансформерами, то, скорее всего, сталкивались с реализациями self-attention, переполненными циклами. Однако благодаря
Вот пример реализации:
💡
📌 Почему стоит обратить внимание:
— Полная векторизация — минимум циклов, максимум скорости;
— Код ближе к математике, а значит — легче проверять;
— Можно выразить довольно сложные операции с тензорами в одной строке.
Библиотека дата-сайентиста #буст
Если вы работаете с нейросетями, особенно с трансформерами, то, скорее всего, сталкивались с реализациями self-attention, переполненными циклами. Однако благодаря
np.einsum
можно выразить всю механику multi-head attention в компактной и векторизованной форме.Вот пример реализации:
def multi_head_attention(X, W_q, W_k, W_v, W_o):
d_k = W_k.shape[-1]
Q = np.einsum('si,hij->hsj', X, W_q) # (n_heads, seq_len, d_k)
K = np.einsum('si,hik->hsk', X, W_k)
V = np.einsum('si,hiv->hsv', X, W_v)
scores = Q @ K.transpose(0, 2, 1) / np.sqrt(d_k)
weights = softmax(scores, axis=-1)
output = weights @ V
projected = np.einsum('hsv,hvd->hsd', output, W_o)
return projected.transpose(1, 0, 2).reshape(seq_len, -1)
💡
einsum
— мощный инструмент для выражения сложных операций с многомерными массивами. Особенно полезен, когда нужно точно контролировать свёртки и трансформации осей. В задачах NLP и computer vision это буквально незаменимая вещь.📌 Почему стоит обратить внимание:
— Полная векторизация — минимум циклов, максимум скорости;
— Код ближе к математике, а значит — легче проверять;
— Можно выразить довольно сложные операции с тензорами в одной строке.
Библиотека дата-сайентиста #буст
🎯 ТОП-5 структур данных для обработки изображений
⠀
Как компьютеры «видят» изображения?
Какие структуры помогают выделять объекты, экономить память и ускорять алгоритмы?
⠀
В этом посте — ключевые структуры, без которых не обойтись в компьютерном зрении:
🔹 Матрицы
🔹 Цепи
🔹 Графы
🔹 Пирамиды
🔹 Квадродеревья
⠀
✅ Понятные примеры, плюсы и минусы, где применяются — всё на карточках.
Если хотите узнать больше — полная статья по ссылке: https://proglib.io/sh/nitr6FEIjR
Библиотека дата-сайентиста #буст
⠀
Как компьютеры «видят» изображения?
Какие структуры помогают выделять объекты, экономить память и ускорять алгоритмы?
⠀
В этом посте — ключевые структуры, без которых не обойтись в компьютерном зрении:
🔹 Матрицы
🔹 Цепи
🔹 Графы
🔹 Пирамиды
🔹 Квадродеревья
⠀
Если хотите узнать больше — полная статья по ссылке: https://proglib.io/sh/nitr6FEIjR
Библиотека дата-сайентиста #буст
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥 Холивар: scikit-learn — мастодонт ML или пора переходить на что-то посвежее?
🎓 С одной стороны — стабильный и понятный scikit-learn:
• простота API,
• огромная документация,
• идеально подходит для обучения и базовых ML-пайплайнов.
💥 Но многие говорят: «Он уже не тянет продакшн»:
• нет GPU,
• нет удобной работы с пайплайнами в стиле TensorFlow/PyTorch,
• нет AutoML по умолчанию.
И начинают смотреть в сторону LightGBM, XGBoost, CatBoost, PyCaret, H2O, или даже Spark ML.
👀 А кто-то вообще считает, что Scikit-learn — это «велосипед прошлого десятилетия».
Делитесь своим стеком — кто чем пользуется в 2025?
Давайте обсужим в комментариях!⤵️
Инструкция о том, как оставить комментарий: https://www.tg-me.com/Библиотека data scientist’а | Data Science Machine learning анализ данных машинное обучение/com.dsproglib/6244
❤️ — Scikit-learn forever: надёжный, понятный, любимый
👍 — Уже давно перешёл на градиентный бустинг и AutoML
🔥 — Я вообще на PyTorch/TensorFlow, мне склерн не нужен
🤔 — Использую всё понемногу, зависит от задачи
Библиотека дата-сайентиста #междусобойчик
🎓 С одной стороны — стабильный и понятный scikit-learn:
• простота API,
• огромная документация,
• идеально подходит для обучения и базовых ML-пайплайнов.
💥 Но многие говорят: «Он уже не тянет продакшн»:
• нет GPU,
• нет удобной работы с пайплайнами в стиле TensorFlow/PyTorch,
• нет AutoML по умолчанию.
И начинают смотреть в сторону LightGBM, XGBoost, CatBoost, PyCaret, H2O, или даже Spark ML.
👀 А кто-то вообще считает, что Scikit-learn — это «велосипед прошлого десятилетия».
Делитесь своим стеком — кто чем пользуется в 2025?
Давайте обсужим в комментариях!
Инструкция о том, как оставить комментарий: https://www.tg-me.com/Библиотека data scientist’а | Data Science Machine learning анализ данных машинное обучение/com.dsproglib/6244
❤️ — Scikit-learn forever: надёжный, понятный, любимый
👍 — Уже давно перешёл на градиентный бустинг и AutoML
🔥 — Я вообще на PyTorch/TensorFlow, мне склерн не нужен
🤔 — Использую всё понемногу, зависит от задачи
Библиотека дата-сайентиста #междусобойчик
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥 Модели, релизы и технологии:
— Codex от OpenAI — облачный инженерный агент, который пишет код сам
— Claude 4 — новая версия от Anthropic, лидер по качеству кода
— Google I/O 2025 — анонсы по «разумному» AI: умнее, персональнее, агентнее
🧠 Статьи, исследования и лучшие практики:
— Мысль не словами, а образами — модель от Google и Кембриджа, меняющая подход к мышлению
— ML-чемпионы: код, железо, стратегия — как побеждают на соревнованиях
— «Что у меня за распределение?» — пошаговый гайд от Tinkoff
— Теневая сторона AutoML — когда no-code мешает
📘 Обучение и развитие:
— To Docker or not to Docker? — как разворачивать JupyterLab правильно
— Scikit-learn 2025 — пайплайны, которые не ломаются
— Я не люблю NumPy — честный разбор альтернатив
— Когда стоит подключать ML? — чтобы не переплатить за автоматизацию
Библиотека дата-сайентиста #свежак
Please open Telegram to view this post
VIEW IN TELEGRAM